"فورين أفيرز": شركات الذكاء الاصطناعي لن تعمل من أجل المصلحة العامة

"فورين أفيرز": شركات الذكاء الاصطناعي لن تعمل من أجل المصلحة العامة

يتدافع القادة السياسيون للاستجابة للتقدم في الذكاء الاصطناعي، من التسويق إلى الرعاية الصحية إلى أنظمة الأسلحة، ومن المتوقع أن يكون للذكاء الاصطناعي تأثير عميق عبر المجتمع وحول العالم، حيث دفعت التطورات الأخيرة في تكنولوجيا الذكاء الاصطناعي التوليدية -التكنولوجيا المستخدمة في تطبيقات مثل ChatGPT لإنتاج النصوص والصور- إلى زيادة الإثارة إلى جانب مجموعة من المخاوف.

ووفقا لمجلة "فورين أفيرز" الأمريكية، دق العلماء والسياسيون على حد سواء أجراس الإنذار حول الطرق التي يمكن أن تؤدي بها هذه التكنولوجيا إلى إخراج الناس من وظائفهم، وتعريض الديمقراطية للخطر، والتعدي على الحريات المدنية، وأقر الجميع بالحاجة الملحة إلى تنظيم حكومي يضمن وضع تطبيقات الذكاء الاصطناعي ضمن حدود القانون ويحمي الأمن القومي وحقوق الإنسان والمنافسة الاقتصادية.

ومن قاعات المدينة إلى المنظمات الدولية، فإن الإشراف على الذكاء الاصطناعي هو على رأس الأولويات، وقد تسارعت وتيرة المبادرات الجديدة في الأشهر الأخيرة من عام 2023، فعلى سبيل المثال، أصدرت مجموعة الدول السبع مدونة سلوك غير ملزمة لمطوري الذكاء الاصطناعي في أواخر أكتوبر، وفي أوائل نوفمبر، استضافت المملكة المتحدة مؤتمر القمة الذكاء الاصطناعي للسلامة، حيث تعهدت وفود من 28 بلدا بالتعاون لإدارة مخاطر الذكاء الاصطناعي.

وبعد أسابيع قليلة من إصدار أمر تنفيذي يروج الذكاء الاصطناعي "آمنة ومأمونة وجديرة بالثقة"، التقى الرئيس الأمريكي جو بايدن مع الرئيس الصيني شي جين بينغ في منتصف نوفمبر واتفقا على إطلاق حوار حكومي دولي حول الاستخدام العسكري الذكاء الاصطناعي.

وفي أوائل ديسمبر، توصل المشرعون في الاتحاد الأوروبي إلى اتفاق سياسي بشأن قانون الذكاء الاصطناعي، وهو قانون رائد من شأنه أن يخفف مخاطر التكنولوجيا ويضع معيارا تنظيميا عالميا.

وعلى الرغم من الاعتراف الواسع بالحاجة إلى رعاية مستقبل مدعوم الذكاء الاصطناعي، عندما يتعلق الأمر بالتعاون والتنسيق الدوليين، غالبا ما يلجأ القادة السياسيون إلى أدوات من الماضي.

وتسعى أبرز المقترحات للإشراف العالمي على الذكاء الاصطناعي إلى تكرار الهيئات المتعددة الأطراف التي أنشئت لأغراض أخرى؛ فقد دعا الأمين العام للأمم المتحدة، أنطونيو غوتيريش، وآخرون إلى إنشاء "الوكالة الدولية للطاقة الذرية من أجل الذكاء الاصطناعي"، على سبيل المثال، من شأنها أن تراقب الذكاء الاصطناعي بالطريقة التي تراقب بها الوكالة الدولية للطاقة الذرية التكنولوجيا النووية.

جددت قمة السلامة الذكاء الاصطناعي التي تقودها بريطانيا الشهر الماضي الدعوات إلى "الهيئة الحكومية الدولية المعنية بتغير المناخ من أجل الذكاء الاصطناعي"، في إشارة إلى الهيئة الحكومية الدولية المعنية بتغير المناخ التابعة للأمم المتحدة.

ورغم أن الدافع إلى الاقتراض من النجاحات السابقة لتعددية الأطراف أمر مفهوم، فإن مجرد إنشاء وكالة جديدة لن يحل الأمر، وظلت الالتزامات التي قطعها المشاركون في مؤتمر قمة الذكاء الاصطناعي للسلامة، على غرار المبادئ التوجيهية لمجموعة السبع، هي مجرد تعهدات معلنة.

وفي غياب تدابير ملزمة، تترك الشركات لتحكم نفسها، وقد يفضل المستثمرون والمساهمون هذه النتيجة، ولكن لا ينبغي للساسة والمواطنين أن يتوهموا أن شركات الذكاء الاصطناعي الخاصة سوف تعمل من أجل المصلحة العامة.

وكان الفشل الذريع الأخير في OpenAI "أوبن أيه آي" هو مثال على ذلك: صراع مجلس الإدارة مع القيادة التنفيذية حول التأثير المجتمعي لمنتج الشركة أظهر هشاشة الآليات الداخلية لإدارة مخاطر الذكاء الاصطناعي.

يذكر أن، "أوبن أيه آي" هي منظمة غير ربحية لأبحاث الذكاء الاصطناعي تأسست في ديسمبر 2015 بهدف تعزيز وتطوير أنظمة الذكاء الاصطناعي بحيث تكون آمنة من المخاطر، وتهدف المنظمة إلى (التعاون بحرية) مع المؤسسات والباحثين الآخرين من خلال جعل براءات الاختراع والبحوث مفتوحة المصدر للجمهور، ومعالجة المخاطر الوجودية من الذكاء الاصطناعي العام.

وأكدت "فورين أفيرز" أن الهيئات التنظيمية الدولية لا تنجح إلا عندما تكون هناك قواعد يمكنها مساءلة الشركات والحكومات الوطنية، وأنه يجب على القادة السياسيين أولا وضع الشروط المسبقة ومحتوى تلك القوانين وعندها فقط يمكن للوكالات الإشراف على التنظيم.

ويجعل التطور السريع في الذكاء الاصطناعي وغموضه وطبيعته المتغيرة مختلفة اختلافا جوهريا عن التقنيات السابقة، وسوف يتطلب أشكالا جديدة من الإشراف الدولي، وبدلا من السماح لنطاق التحدي بتثبيطهم، ينبغي للمشرعين أن يعتبروه مصدر إلهام للابتكار.

العربة قبل الحصان

وقد تكون إنجازات الهيئات الدولية القائمة جديرة بالمحاكاة، ولكن نماذجها الرقابية لا تترجم بسهولة إلى الذكاء الاصطناعي، ولنتأمل هنا حالة الوكالة الدولية للطاقة الذرية؛ تأسست الوكالة الدولية للطاقة الذرية التي تقودها الأمم المتحدة في عام 1957، ولكن فقط بعد دخول معاهدة منع انتشار الأسلحة النووية حيز التنفيذ في عام 1970 تمكنت الوكالة من مراقبة برامج الأسلحة النووية للدول المشاركة بشكل فعال ودعم معايير السلامة.

وتغفل المحادثات الحالية بشأن الذكاء الاصطناعي، الدور الحاسم الذي تلعبه معاهدة منع انتشار الأسلحة النووية، إذ إن الزعماء السياسيين حريصون على الحلم بمؤسسات تركز على الذكاء الاصطناعي وتتمتع بقدرات مراقبة، ولكن معاهدة قابلة للتنفيذ بشأن التحكم بالذكاء الاصطناعي لا تلوح في الأفق، وبالكاد أحرزت عدة بلدان رئيسية تقدما بشأن التشريعات المحلية.

استلهم رئيس الوزراء البريطاني ريشي سوناك وآخرون، بمن في ذلك الرئيس التنفيذي السابق لشركة جوجل إريك شميدت، من الهيئة الحكومية الدولية المعنية بتغير المناخ، التي تجمع البحوث العلمية حول تغير المناخ وتستضيف مؤتمرات القمة السنوية لمؤتمر الأطراف.

وحتى قبل أن تعقد المملكة المتحدة قمة السلامة الذكاء الاصطناعي الافتتاحية، أكدت خطط "الهيئة الحكومية الدولية المعنية بتغير المناخ من أجل الذكاء الاصطناعي" الجديدة أن وظيفة الهيئة لن تكون إصدار توصيات سياسية، وبدلا من ذلك، ستقوم بشكل دوري باستخلاص الذكاء الاصطناعي البحوث، وتسليط الضوء على المخاوف المشتركة، وتحديد خيارات السياسة دون تقديم المشورة مباشرة.

لا تحتوي هذه الأجندة المحدودة على أي احتمال لمعاهدة ملزمة يمكن أن توفر حماية حقيقية وتحد من قوة الشركات.

إن إنشاء المؤسسات التي "تضع القواعد والمعايير" و"تراقب الامتثال" دون الضغط من أجل القواعد الوطنية والدولية في الوقت نفسه هو أمر ساذج في أحسن الأحوال ويخدم المصلحة الذاتية عمدا في أسوأ الأحوال.

وتدعم مجموعة أصوات الشركات التي تدعم المبادرات غير الملزمة التفسير الأخير، وقد ردد الرئيس التنفيذي لشركة أوبن إيه آي، سام ألتمان، الدعوة إلى إنشاء "وكالة للطاقة الذرية من أجل الذكاء الاصطناعي" وحذر من المخاطر الوجودية التي يواجهها الذكاء الاصطناعي حتى في الوقت الذي تنشر فيه شركته نفس التكنولوجيا للجمهور.

واستثمر شميدت مبالغ كبيرة من المال في الذكاء الاصطناعي الشركات الناشئة والمشاريع البحثية، وفي الوقت نفسه قدم المشورة للحكومة الأمريكية بشأن سياسة الذكاء الاصطناعي، مع التركيز على الحكم الذاتي للشركات.

يؤكد احتمال تضارب المصالح الحاجة إلى حواجز حماية قابلة للتنفيذ قانونا يعطي الأولوية للمصلحة العامة، وليس معايير محددة بشكل فضفاض تخدم الخطوط النهائية لشركات التكنولوجيا.

كما أن اتخاذ الوكالة الدولية للطاقة الذرية أو الهيئة الحكومية الدولية المعنية بتغير المناخ كنماذج يجازف أيضا بتجاهل حداثة الذكاء الاصطناعي والتحدي المحدد المتمثل في تنظيمها، وعلى عكس الأسلحة النووية، التي تسيطر عليها الحكومات، تتركز قدرات الذكاء الاصطناعي في أيدي عدد قليل من الشركات التي تدفع المنتجات إلى السوق.

وسوف يكون من المفيد تكرار وظيفة الهيئة الحكومية الدولية المعنية بتغير المناخ كلجنة بحثية مستقلة على الذكاء الاصطناعي، وخاصة في ضوء غموض المعلومات التي تقدمها الشركة عن هذه التكنولوجيا، لكن تسهيل البحث ليس سوى خطوة واحدة نحو وضع القواعد، وتتطلب الحوكمة الذكاء الاصطناعي الفعالة قواعد:

لا أحد يستطيع أن يعرف ما إمكانيات الذكاء الاصطناعي التي ستكون قادرة عليها في المستقبل، لذا يجب تصميم السياسات والمؤسسات التي تحكمها للتكيف. 

 يجب أن تكون هيئات الرقابة قادرة على فرض قوانين مكافحة الاحتكار وعدم التمييز والملكية الفكرية الموجودة بالفعل في الكتب، كما ينبغي للحكومات والمنظمات المتعددة الأطراف أن تتفق على تفسيرات للمبادئ الأولى، مثل احترام حقوق الإنسان وأحكام ميثاق الأمم المتحدة، في سياق الذكاء الاصطناعي.

نظرا لأن الذكاء الاصطناعي أصبح جزءا أكبر من الحياة اليومية، فإن العديد من الأسئلة الأساسية تفتقر إلى إجابات واضحة؛ يجب على واضعي السياسات تحديد متى ينتهك جمع البيانات الحق في الخصوصية، وما المعلومات التي يجب إتاحتها عندما تتخذ الخوارزميات قرارات تبعية، وكيف يمكن للناس التماس الإنصاف من المعاملة التمييزية من قبل خدمة الذكاء الاصطناعي، وما حدود حرية التعبير التي قد تكون مطلوبة عندما يتضمن "التعبير" المدعوم الذكاء الاصطناعي إنتاج مكونات فيروس قاتل بنقرة ماوس.

وعلى الرغم من أن المبادرات الدولية حظيت بالكثير من الاهتمام في الآونة الأخيرة، فإن تعددية الأطراف الفعالة تعتمد على القوانين الوطنية الفعالة، إذا وضع الكونجرس الأمريكي حواجز حماية قانونية لشركات الذكاء الاصطناعي الأمريكية، والتي تضم العديد من القادة في هذا المجال، فيمكنه أن يكون مثالا يحتذى للبلدان الأخرى ويمهد الطريق لتنظيم الذكاء الاصطناعي العالمي، ولكن مع وجود فرصة ضئيلة لتمرير الكونغرس المنقسم بشدة للوائح ذات مغزى، فإن أدوات إدارة بايدن لمعالجة الذكاء الاصطناعي محدودة أكثر.

حتى الآن، أكدت الإدارة -مثل العديد من الحكومات في جميع أنحاء العالم- أن الذكاء الاصطناعي يخضع للقوانين القائمة، بما في ذلك حماية المستهلك وقواعد عدم التمييز، ومع ذلك، فإن كيفية تطبيق المنظمين لهذه القوانين ليست واضحة على الإطلاق، وستحتاج حكومة الولايات المتحدة إلى إصدار مبادئ توجيهية بشأن السياقات التي يجب أن تمتثل فيها تقنيات الذكاء الاصطناعي للقوانين الحالية والتأكد من أن المنظمين لديهم المهارات والموارد اللازمة لإنفاذها.

ستحتاج الوكالات المجهزة لتحديد ما إذا كان الفندق قد رفض العملاء على أساس لون بشرتهم، على سبيل المثال، إلى مجموعة مختلفة من القدرات لتحديد خوارزمية تمييزية على موقع ويب لحجوزات الفنادق.

في بعض المجالات، تم تطبيق القوانين الحالية على التقنيات الذكاء الاصطناعي بنجاح مؤقت: اعتمد المدعون الذين يسعون للحصول على تعويضات من مصنعي السيارات ذاتية القيادة على قانون المسؤولية عن المنتجات لإثبات قضيتهم، لكن المزيد من تطوير السوابق القانونية قد يكون صعبا.

غالبا ما يفتقر المنظمون إلى الوصول إلى بيانات الشركات وخوارزمياتها، ما يمنعهم من تحديد انتهاكات حقوق الخصوصية أو حماية المستهلك أو المعايير القانونية الأخرى، وإذا كان لها أن تحكم القبضة على الذكاء الاصطناعي بفعالية، فلا بد من تخفيف القيود المفروضة على المعلومات المسجلة وفقا لحق الملكية.

وسيحتاج المواطنون أيضا إلى التوجيه بشأن حقوقهم القانونية عندما يواجهون منتجات وأنظمة تعمل بنظام الذكاء الاصطناعي.

وعلى النقيض من الولايات المتحدة، سيكون الاتحاد الأوروبي قريبا في وضع قوي يسمح له بإشراك الدول الأخرى في قواعد ملزمة الذكاء الاصطناعي، ويتضمن قانون الذكاء الاصطناعي في الكتلة، المتوقع أن يدخل حيز التنفيذ في عام 2026، تدابير للتخفيف من مجموعة واسعة من المخاطر الناجمة عن التطبيقات الذكاء الاصطناعي، بما في ذلك أنظمة التعرف على الوجه والأدوات المستخدمة لاستنتاج احتمال ارتكاب شخص ما جريمة.

وباعتباره السياسة الأكثر شمولا من نوعها في العالم الديمقراطي، فإن قانون الاتحاد الأوروبي سيكون بمثابة نقطة انطلاق للمناقشات المتعددة الأطراف ويمكن أن يصبح نموذجا للتشريعات المحلية للبلدان الأخرى، ومع ذلك، لا يتناول قانون الذكاء الاصطناعي استخدام الذكاء الاصطناعي في المجال العسكري، لأن مجال السياسة هذا مخصص للحكومات الوطنية في نظام الاتحاد الأوروبي، وتمنح الحصة السوقية للاتحاد الأوروبي الكتلة نفوذا كبيرا في المفاوضات الدولية، ولكن إذا اتخذت الدول الأعضاء الـ27 مواقف مختلفة بشأن التطبيقات العسكرية، فإن خلافها سيقلل من قدرة الاتحاد الأوروبي على الضغط من أجل معايير الذكاء الاصطناعي العالمية.

وأخيرا، لا يمكن فصل جهود تنظيم الذكاء الاصطناعي عن جهود حماية البيئة، وتتطلب مراكز البيانات الضخمة المستخدمة لتخزين البيانات ومعالجتها كميات كبيرة من الكهرباء والمياه والموارد الأخرى، وتتزايد التكاليف البيئية لهذه المواقع.

واليوم، لا تشارك الشركات سوى تقديرات غامضة لاستهلاكها للمياه والكهرباء، ومن شأن وجود معيار عالمي واحد للإبلاغ، مع إشراف الحكومات الوطنية على الامتثال، أن يجعل البيانات البيئية متاحة للباحثين الأكاديميين والصحفيين، وهذا من شأنه أن يمكن الجمهور من التدقيق في تكنولوجيا الذكاء الاصطناعي واستهلاك الشركات للموارد الطبيعية كما يمكن صانعي السياسات من فرض قيود فعالة.

 


قد يعجبك ايضا

ابق على اتصال

احصل على النشرة الإخبارية